>>您当前的位置:首页 -> 政协工作 -> 社情民意 -> 第十二届委员会
强化AI应用领域法律保障
2025-08-06 09:19:10   来源:自治区政协办公厅研究一室

  银川市政协、贺兰县政协反映,近年来,AI技术深度融入社会各领域,但由于生成式人工智能大模型需要海量的训练数据,及其具有的生成性、优先性、集成性、通用性等特点,在其赋能千行百业的同时也会产生巨大风险。技术本身存在的局限性和技术滥用问题,将给信息内容治理带来严峻挑战。

  个人信息泄露风险。大模型能够根据用户需求编写程序,改善用户的产品体验,很大程度上会引发个人信息泄露风险。2023年3月20日,ChatGPT的开源库曾出现漏洞,使部分用户能看到其他用户的对话内容、姓名、电子邮件地址,甚至支付信息。

  泄密风险。在使用大模型时,无论是市场主体、学术机构还是政府单位,都不可避免要与其分享信息,从而存在巨大的泄露商业秘密甚至国家机密信息的风险。尤其是对于ChatGPT、巴德等服务器在海外的模型,如果在使用过程中输入敏感数据,可能引发数据跨境流动的安全问题。

  数据安全风险。随着越来越多的行业和领域接入人工智能生成式大语言模型,数据泄露和合规风险日益突出,作为生产要素的数据一旦泄露,将给企业、行业及国家带来巨大的经济损失。

  建议优化大模型开发法治环境。面对处在快速发展阶段的AI大模型,必须充分尊重市场规律,在加大保护个人信息和数据安全力度的前提下,平衡创新和公众利益,确保生成式人工智能的有益应用,建立发展与安全相统筹、符合客观规律和发展阶段的赋能型监管理念和监管模式。

  构建AI模型法律框架。统筹网络意识形态安全,在国家安全法、网络安全法、反恐怖主义法、互联网信息服务管理办法等法律法规框架下,建立科学、明晰的法律责任承担机制。对于AI服务开发者,以立法要求其确保数据的可靠性、准确性。督促履行内容审核义务、特殊标识义务,建立预防、及时识别和停止有害及不良信息生成、传播的机制。其他信息平台对模型所生成的虚假信息和其他有害信息、不良信息,应当及时甄别,禁止或限制平台上的信息传播。

  构建多元化的治理机制。AI大模型作为互联网信息技术发展新趋势,已经展现出爆炸性和革命性的潜力,需进一步支持和扶持大模型开发与部署。强化企业社会责任,规范数据处理和个人信息保护,确保人工智能模型的开发和应用符合经济社会发展要求。 


【责任编辑】:包瑞